#AI 大模型
國產大模型Kimi K2.5全球多榜單領先,推動AI向智能體演進
當前,全球AI大模型的技術焦點正從“對話互動”轉向“自主執行”。在這一趨勢中,國產大模型正展現出獨特的價值與影響力。近日,人工智慧企業月之暗面正式發佈並開源新一代大模型Kimi K2.5。作為該公司迄今最智能、最全能的模型,K2.5在視覺理解、程式碼生成與Agent叢集協作等方面實現重要突破,被AI業界視為國產人工智慧發展的又一標誌性產品。2025年初,DeepSeek-R1憑藉極高的推理效率火遍全球。一年後,月之暗面通過原生多模態與智能體能力的深度融合,進一步體現了國產基座模型在提升智能“密度”與實用效能方面的進階。隨著以Kimi K2.5為代表的AI大模型加速賦能千行百業,其廣泛的應用潛力越發凸顯。KimiK2.5模型全球多榜單領先自2023年成立以來,月之暗面先以“長文字”功能打開市場,隨後推出基於強化學習的K系列模型。這次K2.5的發佈,意味著公司在基礎模型研發上再進一步。相比2025年7月發佈的K2模型,Kimi K2.5模型意義重大。多項測試表明,K2.5在程式設計、視覺、推理和Agent(智能體)任務等多個領域達到國際先進水平。K2.5讓AI更“親民”。通過融合視覺、推理、程式碼和Agent能力,使用者現在只需拍照、截圖或錄屏,就能讓Kimi理解複雜需求,大大降低了與AI的互動門檻。發佈不到一周,來自美國、英國、德國、西班牙、新加坡等近20個國家超50家主串流媒體對Kimi K2.5進行了報導。該模型發佈後,迅速登上多個權威評測榜單前列。在第三方評測機構Artificial Analysis的最新榜單中,Kimi K2.5綜合性能位列全球前五,僅次於GPT-5.2、Claude Opus 4.5、GPT-5.2 Codex和Gemini 3 Pro Preview這四款閉源模型,在開源模型中居首。圖為評測機構Artificial Analysis發佈的最新模型排名Kimi K2.5還進一步提升了開源模型的程式碼水平,尤其是在前端開發領域,通過融合視覺能力降低了程式設計的門檻。比如,K2.5能自動拆解錄屏背後的互動邏輯,用程式碼進行完整復現。開發者社區的反響也十分熱烈。大模型聚合平台OpenRouter平台資料顯示,K2.5的呼叫量已進入全球前三,且仍在快速增長。LMArena榜單也顯示,其程式碼能力在開源模型中居首,總榜排名前三,是前十名中唯一的中國模型。知名程式設計工具Kilo Code近期資料顯示,K2.5已成為平台上呼叫量最高的模型。在程式設計的實際應用中,因具備視覺理解能力,Kimi K2.5模型也成為多家頭部大廠的首選,展現出廣泛的行業適配性。對普通使用者來說,Kimi K2.5模型將Agent能力擴展到日常辦公領域,它已具備處理Word、Excel、PPT、PDF等常用軟體的高階技能,能幫助使用者直接交付准專業水平的辦公文件。更值得關注的是,Kimi K2.5首次引入了“Agent叢集”能力,可以自主建立多達100個的數字“分身”,按需組成不同角色的團隊,平行工作,團隊作戰,獲得效率的極大提升。例如,使用者輸入40篇論文後,K2.5會先通讀全文,再派生子Agent分別撰寫不同章節,最後由主Agent整合成一份完整的PDF報告。這種“團隊作戰”模式極大提升了效率。圖為評測平台Design Arena發佈的榜單,Kimi K2.5位列第一最新資料顯示,Kimi K2.5已登上評測平台Design Arena榜單首位。該平台主要評測AI大模型的“視覺+互動+創意”能力,此結果印證了K2.5在“設計智能體”領域的綜合領先優勢。隨著應用場景的持續拓展與技術的穩步迭代,Kimi K2.5有望在全球範圍內推動AI應用走向更廣、更深的落地,為各行各業的智能化轉型提供切實助力。國產AI大模型影響力持續提升Kimi K2.5模型的快速破圈,不僅是國產AI模型的一次“實戰測試”,更是中國開源模式憑藉技術能力和性價比優勢在全球舞台嶄露頭角的重要體現。從DeepSeek-R1以強化學習最佳化實現“效率革命”,到月之暗面Kimi K2.5實現原生多模態與智能體叢集能力的融合突破,國產大模型在技術體繫上完成了從單點突破到系統化創新的範式躍遷,影響力持續提升。大模型能力是人工智慧走向規模化應用的核心基石。Kimi K2.5的發佈,體現了人工智慧行業將加速從“聊天互動”轉向以“自主執行”為目標的智能體新階段。以“Agent叢集”為例,過去工程師需要逐行編寫程式碼的複雜流程,如今僅憑一條自然語言指令,即可調度上百個智能體協同作業、平行處理。業內分析認為,這一從“單一模型智能”向“多智能體群體協作”的躍遷,是企業級AI開發的下一個前沿。當前,智能體技術正逐漸從實驗室走向實際應用,進入規模化落地階段。在政策引導與產業鏈協同創新的雙輪驅動下,中國在場景、資料與工程化方面的優勢持續釋放,為AI產業形成全球競爭力奠定了基礎。在市場與資本的雙重助推下,頭部企業正將資源聚焦於下一代技術的攻堅。月之暗面創始人楊植麟表示,下一代模型將採用Kimi Delta Attention新型線性注意力機制,進一步提升短長文字任務性能與速度。同時,未來的大模型還將具備更多“審美”和“價值觀”,擺脫同質化發展。“我們致力於在未來十年、二十年,推動K系列模型從K4、K5到K100實現代際跨越。”楊植麟表示,當前多款中國開源模型已成為事實上的行業基準,“中國技術不僅要好用,還要參與制定規則”。 (瞭望財經)
AI:正在復刻2006年房地產的“黃金十年”
2006年的房地產,是公認的黃金賽道,需求爆發、資本扎堆,房價與投資熱度一路走高,成為拉動經濟、創造財富的核心引擎,開啟了長達十餘年的繁榮周期。如今2026年,AI應用正迎來類似的爆發期,從工業製造、企業辦公到消費終端、民生服務,AI全面滲透各領域,降本增效、提質升級的效果肉眼可見。資料顯示,2025-2030年全球AI市場規模將從2440億美元飆升至8270億美元,復合年增長率高達24%,遠超物聯網和公共雲等熱門領域。再者,技術迭代加速、政策持續加持、資本密集佈局,AI商業化落地與規模化應用全面提速,滲透廣度與增長潛力堪比當年的房地產,正成為新一輪產業升級與經濟增長的核心驅動力,長期發展前景十分廣闊。01技術迭代+政策護航,AI產業迎來全方位賦能AI產業的快速發展,離不開技術突破與政策支援的雙重驅動。全球範圍內,大模型性能持續提升,各主流模型在語言理解、程式碼生成、電腦視覺等核心領域的差距不斷縮小,為廣泛應用奠定了堅實基礎。2025年7月底,AI大模型Token總使用量已達3.41T,相較年初增長近10倍,直觀反映出技術落地的加速態勢。在政策層面,國務院發佈的《關於深入實施“人工智慧+”行動的意見》,明確了“發展——應用——安全——治理”的清晰路徑,規劃了到2027年、2030年和2035年的三階段里程碑目標。從算力統籌、資料創新到開源生態、人才建設,八大基礎支撐為AI產業保駕護航,推動智能經濟核心產業規模快速增長。與此同時,AI產業鏈生態日趨完善。上游的AI晶片、伺服器等算力基礎設施持續升級,中游的通用大模型與行業解決方案不斷創新,下游的網際網路、金融、教育、醫療等應用領域加速滲透,形成了協同發展的良好格局。這種全產業鏈的協同發力,讓AI技術的落地效率大幅提升,為產業爆發提供了充足動力。02多場景落地開花,AI重塑產業價值格局AI技術的價值,最終體現在豐富的應用場景中。目前,AI已在內容創作、行銷推廣、軟體開發、遊戲產業等多個領域實現規模化落地,不僅帶來了效率的革命,更催生了全新的商業模式。在內容創作領域,AI的賦能效果最為顯著。從圖片生成、視訊剪輯到文案撰寫、劇本創作,AI工具讓內容生產的門檻大幅降低。2025年上半年,全球生成式AI應用下載量接近17億次,應用內購買收入高達19億美元,使用者總使用時長達到156億小時。國內市場同樣火爆,AI漫劇成為新風口,2024第四季度到2025第三季度,中國AI漫畫流水增長900%,月新增劇集數增長567%,抖音、快手等平台紛紛推出AI創作工具與流量扶持計畫,推動全民創作時代的到來。行銷領域更是AI應用的核心戰場。AI驅動的智能投放系統能夠精準分析使用者畫像,實現廣告素材的自動化生成與即時最佳化,大幅提升行銷ROI。藍色游標2025年前三季度AI驅動業務收入達24.7億元,Mobvista核心平台Mintegral的AI智能競價系統貢獻了80%以上的收入,易點天下打造“服務+產品”雙輪驅動戰略成效顯著,跨境電商領域市佔率穩步提升同時,深耕智能家居、新消費、短劇、AI產品等高潛力賽道,頭部客戶的LTV海外市場中AI類應用的數字廣告支出也實現翻倍增長,充分證明了AI在行銷領域的商業價值。此外,AI在軟體開發、遊戲研發等領域的應用也成效顯著。82%的開發者使用AI工具編寫程式碼,工作效率提升超120%;遊戲行業中,86.36%的企業在研發環節應用AI技術,實現了內容生成、系統設計等環節的降本增效。AI正全方位重塑各產業的價值創造方式。03平台+企業雙輪驅動,商業化變現路徑清晰AI產業的蓬勃發展,離不開平台型企業與垂直領域龍頭的共同推動,兩者形成的雙輪驅動格局,讓商業化變現路徑愈發清晰。在平台端,抖音、快手、B站等新媒體平台成為AI應用的重要載體。抖音以豆包大模型為核心,將AIGC技術嵌入內容生產、剪輯、發佈、行銷的全流程,推出“AI創作浪潮計畫”扶持創作者;快手可靈AI全球使用者規模突破4500萬,2025年第二季度收入超2.5億元,其文生視訊模型在全球市場佔據30%的份額;B站、小紅書等平台也紛紛上線AI創作工具,推動內容生態的智能化升級。這些平台憑藉龐大的使用者基數與流量優勢,成為AI技術落地的“試驗場”與“放大器”。在企業端,各類市場主體積極擁抱AI,實現了業務增長與效率提升的雙重突破。美圖憑藉AI圖像、視訊、設計等四大模組的佈局,全球VIP會員數突破千萬,生產力工具付費訂閱使用者達180萬。多鄰國通過AI驅動的高端套餐Duolingo Max,2025年第二季度營收同比增長41%,淨利潤增長84%,股價單日飆升32%;Palantir推出的人工智慧平台AIP,推動公司2025年第二季度收入同比增長48%,“40法則”得分高達94%。這些企業的成功案例,印證了AI技術商業化的巨大潛力。同時,AI產品出海成為新的增長點。在圖像、視訊編輯和社交領域,美圖系、字節系應用佔據全球流量入口,國內模型通過與海外平台合作分發,影響力持續擴大,為行業增長開闢了新的空間。04投資建議:聚焦核心賽道,把握AI成長紅利AI產業的爆發式增長,為投資者提供了豐富的投資機會。結合行業發展趨勢與企業表現,建議重點關注以下三大方向:一是內容與流量平台型企業。這類企業憑藉龐大的使用者基礎與完善的生態佈局,在AI應用落地中具備天然優勢。二是AI行銷與商業化落地龍頭。行銷領域是AI技術率先實現規模化變現的賽道,相關企業業績增長確定性強。三是垂直領域AI應用先鋒。在遊戲、教育、設計等垂直領域,AI技術的應用正在催生新的增長機遇。 (格隆)
2026年,看好這6個前景行業
站在2026年的起點回望,中國產業升級的軌跡清晰可見。當全球經濟仍處復甦調整期,部分賽道已展現出強勁的增長勢能——從AI大模型的參數競賽到半導體裝置的國產化突圍,從儲能技術的成本曲線陡峭下降到創新藥的出海浪潮,從高端裝備的世界工廠地位到新消費群體的情感付費。資料不會說謊,這些領域正在重構中國經濟的增長邏輯。一、AI人工智慧+大模型:從百模大戰到應用落地的臨界點中國AI大模型產業正經歷從"技術驗證"到"商業變現"的關鍵轉折。根據艾媒諮詢資料,2024年中國AI大模型市場規模約為294.16億元,預計2026年將突破700億元,年複合增長率超過45%,行業正處於爆發式發展階段。全球競爭格局中,中國已穩固第二極地位。2025世界人工智慧大會發佈資料指出當前全球已發佈的大模型總數達到3755個,其中中國企業貢獻了1509個,佔比到達四成,數量居全球首位。更值得關注的是商業化路徑的分化:央國企採購開發平台提升生產力、非央國企聚焦行銷與客服場景、網際網路企業呼叫公有雲API開發互娛應用,三大需求共同驅動市場增長。中商產業研究院預測,2025年中國AI大模型開發平台市場規模將達23.7億元,2030年有望觸及250億元。技術演進呈現多模態融合趨勢。電腦視覺市場規模預計2025年增至110億元,機器學習開發平台2025年將突破35.8億元。在垂直領域,金融、醫療、教育和工業已成為滲透率最高的場景。隨著《人工智慧生成合成內容標識辦法》等政策落地,行業正從野蠻生長邁向規範發展,具備強大預測能力的預測大模型和能夠自主學習的具身智能大模型有望成為下一個技術風口。二、半導體晶片製造:國產替代從"可用"走向"好用"在地緣政治與技術封鎖的雙重壓力下,中國半導體裝置產業迎來了"倒逼式繁榮"。SEMI資料顯示,2024年中國大陸半導體裝置市場規模達到創紀錄的495億美元,佔全球約40%份額,連續五年成為全球最大半導體裝置市場。核心指標國產化率實現翻倍增長:從2022年的16.4%提升至2024年的35%,預計2025年將進一步提升至45%。細分領域中,清洗裝置、刻蝕裝置、CMP裝置國產化率分別達到20%、23%、30-40%,中微公司在刻蝕裝置領域佔國內市場份額28.4%,北方華創在薄膜沉積領域持續突破。然而,真正的攻堅戰在高端製程。光刻機、離子注入機等核心裝置國產化率仍不足10%,核心零部件整體國產化率僅為10%-20%。這意味著2026年將是關鍵窗口期——隨著國內晶圓製造產能預計2025年增至1010萬晶圓/月(wpm),以及大基金三期持續加碼,裝置廠商正從成熟製程向14nm及以下先進製程滲透。CINNO資料顯示,2025年上半年半導體裝置投資逆勢增長53%,釋放出強烈的國產替代加速訊號。三、新能源與儲能技術:從成本競爭到價值重構中國儲能產業已在全球形成碾壓優勢。截至2024年底,全國新型儲能裝機達7376萬千瓦,佔全球總裝機40%以上,"十四五"以來規模增長20倍,年均增速超130%。鋰電池產業同步爆發,2024年全國鋰電池總產量1170GWh,同比增長24%,行業總產值超過1.2兆元,裝機量(含新能源汽車、新型儲能)超過645GWh,同比增長48%。技術路線呈現"鋰電池主導、多技術平行"格局。鋰離子電池佔比96.4%,但30萬千瓦級壓縮空氣儲能、10萬千瓦級液流電池儲能項目已投入商運,鈉離子電池、重力儲能、液態空氣儲能等創新技術突飛猛進。500安時大容量電芯實現量產,循環壽命達1.5萬次,帶動儲能系統造價下降25%-44%。應用場景的擴展正在重塑行業邏輯。電化學儲能在發電側與風電、太陽能配套解決消納難題,在電網側提供調峰調頻服務,在用電側發揮削峰填谷作用。隨著電力市場商業化機制建立,儲能已從單純的成本競爭轉向價值競爭,2025年將成為儲能參與電力現貨市場交易的關鍵年份。四、生物醫藥及創新藥:從License-in到License-out的範式轉移中國創新藥產業在全球價值鏈中的地位正在發生質變。截至2024年,中國在研創新藥數量達4804個,僅次於美國的5268個,位居全球第二。更關鍵的是出海能力的躍升:2024年中國license-out交易金額達到519億美元,較2019年的9億美元增長57倍,復合增速高達125%,交易數量達94個,復合增速33.7%。技術層面,中國已成為全球第二大新興療法研發國,ADC、雙抗、細胞療法成為主要增長點。AI製藥領域增速尤為驚人,市場規模從2020年的8163萬元預計增長至2025年的7.74億元,年複合增長率56.8%,超過34條AI藥物研發管線已進入臨床階段。支付端改革為創新注入動力。醫保對創新藥支出金額持續增長,創新藥獲批上市至進入醫保目錄的時間大幅縮短。隨著老齡化加速(60歲以上人口超3億)和慢性病管理需求激增(患慢性病老年人超1.9億),具備全球智慧財產權的創新藥企業將在2026年迎來業績兌現期。五、高端製造及出海:從"世界工廠"到"全球品牌"中國製造業出口結構正在經歷歷史性升級。2024年,機電產品出口增長8.7%,佔出口總值的比重達59.4%,其中高端裝備出口增長超過40%。電動汽車、3D印表機、工業機器人出口分別增長13.1%、32.8%、45.2%,跨境電商全年進出口達2.63兆元。區域佈局更趨多元。對共建"一帶一路"國家進出口占比首次超過50%,對東盟連續9年進出口保持增長,對其他金磚成員國進出口增長5.5%。民營企業成為出海主力軍,山東、河北、江蘇等地民營企業貢獻超過85%的外貿增量,且在高端裝備出口中表現亮眼——山東民企高端裝備出口增長58.9%,船舶出口激增98.6%。"燈塔工廠"數量全球第一(超過60家)印證製造實力。從人形機器人樣機首日售罄,到DeepSeek-R1引發全球關注,中國製造業正從OEM/ODM向自主品牌轉型。2026年,具備數位化能力、海外產能佈局和本土化營運經驗的裝備製造企業將受益於全球製造業資本開支周期。六、新消費以及細分賽道:情感價值與功能價值的共振消費市場的K型分化正在催生結構性機會。2024年社會消費品零售總額48.79兆元,同比增長3.5%,但在整體平穩的資料背後,是消費邏輯從"功能滿足"向"情緒價值"的深刻遷徙。寵物經濟、銀髮經濟與情緒經濟形成的三輪驅動,正在重塑消費產業的估值體系。1. 情緒經濟:為"感覺"付費的新紀元情緒經濟正成為Z世代(約2.3億人,佔總人口17%)的核心消費哲學。艾媒諮詢資料顯示,2024年中國穀子經濟市場規模達1689億元,較2023年增長40.63%,預計2029年將突破3089億元。這一增速遠超傳統消費品類,揭示出"情緒價值"正在從行銷話術轉化為真實的商業現金流。悅己消費構成情緒經濟的第一支柱。消費者購物動機中"取悅自己/愉悅心情"的佔比已達50%,較2021年提升10個百分點。美團資料顯示,2024年"療愈"相關搜尋量同比增長441%,2025年同比增長112%;精油SPA從身體護理升級為情緒療愈場景,線上交易同比增長超74%。睡眠、香薰、冥想、湯泉等服務正從"偶爾犒賞"變為預算中的固定條目。穀子經濟(二次元周邊)展現爆發勢能。"穀子"(Goods音譯)作為連接虛擬與現實的情感紐帶,依託盲盒的未知刺激、IP收藏價值及社交屬性,精準擊中年輕人的情感寄託需求。2024年1-11月,全國新增"穀子"相關企業1萬餘家,同比上漲14%,現存相關企業6.4萬餘家。超20個一二線城市的60多個核心商圈正在打造二次元消費地標,穀子店成為老商圈的"救星"。潮玩與盲盒持續高增長。2025年盲盒市場規模預計達580億元,75%的消費者為女性,18-34歲人群佔比超70%。80%的盲盒消費者將"驚喜感"列為主要購買原因,這種對"不確定性獎勵"的心理依賴,構成了極強的使用者粘性。泡泡瑪特2024年會員數達4608.3萬人,會員營收貢獻率高達92.7%,復購率維持在50%左右,驗證了情緒消費的可持續性。2. 寵物經濟與銀髮經濟:陪伴價值的商業化寵物經濟(它經濟)成為最具韌性的賽道。2024年城鎮寵物(犬貓)消費市場規模達3002億元,同比增長7.5%,預計2027年將突破4000億元。寵物食品(1585億元,佔52.8%)和寵物醫療(841億元,佔28%)構成兩大支柱,智能用品賽道增速達40%。90後、00後和銀髮族成為養寵主力,單只寵物年均消費近6000元,消費已從"吃飽"轉向"情感陪伴"。銀髮經濟進入黃金期。2024年市場規模達8.3-9兆元,預計2030年將超過20兆元。老年用品市場規模從2014年的2.6兆元增長至2024年的5.4兆元。社區養老照護服務、機構養老照護服務、居家養老照護服務銷售收入同比分別增長30.4%、22.6%、18.0%,智慧養老市場規模約8.2兆元。 (TOP行業報告)
DeepSeek,重大發佈!
中國國產AI大模型再度掀起熱潮。今日(1月27日),DeepSeek團隊發佈《DeepSeek-OCR 2: Visual Causal Flow》論文,並開源DeepSeek-OCR 2模型,採用創新的DeepEncoder V2方法,讓AI(人工智慧)能夠根據圖像的含義動態重排圖像的各個部分,更接近人類的視覺編碼邏輯。與此同時,國內人工智慧初創公司月之暗面Kimi正式發佈了新一代開源模型 Kimi K2.5。據介紹,Kimi K2.5基於原生多模態架構設計,支援視覺與文字輸入,將視覺理解與推理、程式設計、Agent等能力全部整合到一個模型當中。另外,阿里昨日(1月26日)晚間正式發佈千問旗艦推理模型Qwen3-Max-Thinking,在多項關鍵性能基準測試中,千問表現超過了GPT-5.2、Claude Opus 4.5 和Gemini 3 Pro等頂尖模型,刷新全球紀錄,進一步拓展了AI系統的推理性能邊界。DeepSeek發佈新模型1月27日,DeepSeek發佈全新DeepSeek-OCR 2模型,採用創新的DeepEncoder V2方法,讓AI能夠像人類一樣按照邏輯順序“看”圖像。這項技術的核心創新在於改變了傳統AI處理圖像的方式。DeepEncoder V2讓AI基於圖像含義動態重新排列圖像片段,而非傳統的從左到右剛性掃描。這種方法模仿了人類追隨場景邏輯流的方式。根據DeepSeek公佈的技術報告,DeepSeek-OCR 2在多項關鍵指標上展現出顯著優勢。在OmniDocBench v1.5基準測試中,該模型取得了91.09%的成績,相較於前代DeepSeek-OCR提升了3.73%。值得注意的是,該模型在保持極高精度的同時,嚴格控制了計算成本,其視覺Token數量被限制在256至1120之間,這一上限與Google的Gemini-3 Pro保持一致。 在實際生產環境中,該模型在處理線上使用者日誌和PDF預訓練資料時的重複率分別下降了2.08%和0.81%,顯示出極高的實用成熟度。根據DeepSeek公佈的技術報告,現有的視覺語言模型(VLMs)通常採用固定的光柵掃描順序(光柵掃描順序)處理圖像切片,即機械地從左上角掃描至右下角。DeepSeek團隊指出,這種方式引入了不必要的歸納偏差,與人類視覺感知背道而馳。人類在閱讀複雜文件、表格或追蹤螺旋線條時,視線是受語義理解驅動的“因果流”,後一次注視往往因果依賴於前一次注視,而非單純的空間坐標移動。受此認知機制啟發,DeepSeek-OCR 2的核心元件DeepEncoder V2被設計用於賦予編碼器因果推理能力。通過引入可學習的“因果流查詢”(Causal Flow Queries),模型能夠在進入LLM解碼器進行內容解釋之前,先在編碼階段就對視覺資訊進行智能重排序。這實際上建構了一個兩級級聯的1D因果推理結構:首先由編碼器在語義上重組視覺Token,隨後由解碼器對有序序列進行自回歸推理。這種設計不僅符合光學文字、表格和公式的非線性佈局特徵,還有效彌補了2D圖像結構與1D語言建模之間的鴻溝。DeepSeek-OCR 2的發佈不僅是一次OCR性能的升級,更具有深遠的架構探索意義。DeepEncoder V2初步驗證了使用語言模型架構作為視覺編碼器的潛力。這種架構天然繼承了LLM社區在基礎設施最佳化方面的成果,如混合專家(MoE)架構和高效注意力機制。DeepSeek團隊認為,這為邁向統一的全模態編碼器提供了一條有希望的路徑。未來,單一編碼器可能通過配置特定模態的可學習查詢,在同一參數空間內實現對圖像、音訊和文字的特徵提取與壓縮。DeepSeek-OCR 2所展示的“兩個級聯的1D因果推理器”模式,通過將2D理解分解為“閱讀邏輯推理”和“視覺任務推理”兩個互補子任務,或許代表了實現真正2D推理的一種突破性架構方法。阿里、月之暗面也有大動作同日,月之暗面Kimi正式發佈了新一代開源模型 Kimi K2.5。此次升級通過靜默推送方式實現在官網聊天介面的自動更新,原K2模型已無縫切換為K2.5,使用者無需手動操作。更新旨在提升響應速度、推理能力與多輪對話穩定性,覆蓋全部Web端使用者。該版本未開放獨立入口或下載安裝包,僅以伺服器端模型替換形式落地。據介紹,作為Kimi目前最智能的模型,K2.5在HLE(人類最後的考試)、BrowseComp、 DeepSearchQA等多項agent評測中均取得全球開源模型的最佳成績。作為一個全能型模型,Kimi K2.5基於原生多模態架構設計,支援視覺與文字輸入,將視覺理解與推理、程式設計、Agent等能力全部整合到一個模型當中。Kimi創始人、CEO楊植麟表示:“我們重構了強化學習的基建,並專門最佳化了訓練演算法,以確保它能達到極致的效率和性能。”另外,阿里巴巴26日晚間正式發佈千問旗艦推理模型Qwen3-Max-Thinking,在多項關鍵性能基準測試中,千問表現超過了GPT-5.2、Claude Opus 4.5 和Gemini 3 Pro等頂尖模型,刷新全球紀錄,進一步拓展了AI系統的推理性能邊界。通過總參數、強化學習、推理計算的極致規模擴展,千問新模型實現了性能的大幅飛躍,刷新科學知識(GPQA Diamond)、數學推理(IMO-AnswerBench)、程式碼程式設計(LiveCodeBench)等多項關鍵性能基準測試的全球紀錄。具體來看,在關鍵的模型推理能力提升中,千問新模型採用了一種全新的測試時擴展(Test-time Scaling)機制,推理性能提升的同時還更經濟。阿里方面表示,Qwen3-Max-Thinking總參數超兆,進行了更大規模的強化學習後訓練,並通過推理技術的系列創新,最終完成模型性能的大幅飛躍。其還大幅增強了自主呼叫工具的原生Agent能力,模型可像專業人士一樣邊用工具邊思考。同時,模型幻覺也大為降低,為解決真實複雜任務打下基礎。目前,普通使用者可通過千問PC端和網頁端試用新模型,千問APP也即將接入,所有使用者都可免費體驗。 (券商中國)
馬斯克點贊、黃仁勳約見,總理座談會上的那個年輕人是誰?
2026年1月19日,總理座談會在北京召開。這場會議匯聚了多個領域的專家和企業家,其中一個年輕人引起了很多人的關注。他叫閆俊傑,36歲,看上去有著與年齡不相符的成熟。● 閆俊傑出席總理座談會閆俊傑創辦的MiniMax(稀宇科技),是中國AI大模型的頭部企業之一,成立不到四年,已服務全球200多個國家和地區,超70%的營收來自海外。馬斯克為他的產品點贊,黃仁勳也單獨約見閆俊傑,與他進行兩個小時的閉門會談。而就在不久前,閆俊傑帶領MiniMax在港交所上市,首日股價大漲109%,同時刷新了全球AI企業從成立到上市的最快紀錄。有業內人士指出,閆俊傑出席總理座談會,很大程度釋放了一個明確的訊號:人工智慧正超越純粹的技術範疇,成為改變全球競爭格局的關鍵力量。讓“電影小白”拍出“質感大片”先來看一段視訊,如果沒有提前告訴你,你會相信這是AI做的嗎?該視訊由海外創作者使用海螺AI製作,從場景到人物,效果驚豔宛如好萊塢大片,就連馬斯克都忍不住點贊。而海螺AI正是MiniMax旗下的產品。海螺AI於2024年上線,推出後迅速火遍海外,長達半年時間佔據視訊生成模型賽道全球第一的位置,吸引了大批專業人士如電影導演、數字藝術家、遊戲開發者的關注。並且,其無論是使用介面、提示詞指示還是運鏡,使用門檻都很低,主打一個讓小白也能拍大片。這大概也是其在全球範圍內受追捧的原因之一。● 海螺視訊截圖除了海螺AI之外,MiniMax還自主研發了一系列多模態通用大模型和AI原生產品,涵蓋文字、視訊、語音等核心領域,相關模型均居國際第一梯隊——語言模型全球第一、視訊模型全球第二、文字模型全球前五。●在國際權威的人工智慧模型評測榜單Artificial Analysis上,MiniMax語言模型Speech-02-HD力壓OpenAI、ElevenLabs,拿下全球第一。資料來源:MiniMax招股書這些產品現已服務全球200多個國家和地區,觸達2.12億個人使用者和13萬企業客戶。最關鍵的是,MiniMax的團隊很年輕,385名員工,73.8%是研發人員,平均年齡還不到29歲。這種創作活力,成了MiniMax在全球市場最具競爭力的資本。36歲的掌舵人閆俊傑,在這些90後、00後面前,已經算得上是“老資格”了。“在最壞的條件下尋找最優解”閆俊傑的出身很普通,完全是靠讀書改寫了命運。他1989年出生於河南商丘,本科就讀於東南大學數學學院,系統學習了基礎數學理論,為日後研究人工智慧演算法打下了基礎。本科畢業後,閆俊傑考入中科院自動化研究所,進行碩博連讀,之後進入商湯科技,一幹就是7年。他從實習生做起,一步步做到研究院副院長、副總裁,帶領700多人的團隊,將臉部辨識演算法精準率提升至行業第一,成功應用於安防、智慧城市等場景,為商湯科技的發展立下了汗馬功勞。但就在事業風生水起的時候,閆俊傑做出了一個讓周圍所有人驚訝的決定:辭職。● 閆俊傑在談到這段經歷時,閆俊傑說:“我作為一個做技術的,有一天突然發現,每天AI領域的論文我已經看不完了,這對我觸動非常大。我們都相信人工智慧會讓人類的技術進步更快,但事實上,我們做的很多事並沒有直接促成它。可能是我們的技術路線不對,也可能是,我們關注的問題不是人工智慧應該真正去解決的問題。”到底什麼是人工智慧應該真正去解決的問題?閆俊傑想了很久,直到外公的一句話,讓他恍然明悟。一次回老家,外公告訴閆俊傑說想寫一本回憶錄,把自己過去的經歷都記錄下來,可惜自己文化不高不會打字。一個人一輩子的故事就這樣從世界上消失了,閆俊傑一下子被戳中了軟肋,他突然意識到,人工智慧不應該只是精英們的玩具,它應該更多地去幫助和服務那些最普通的人。於是在2022年初,33歲的閆俊傑辭掉職務,創辦了MiniMax。“MiniMax”這一名稱源自現代電腦之父馮·諾依曼提出的博弈論演算法,即“在最壞的條件下尋找最優解”,這一理念也貫穿了公司發展的始終。開著“面包車”追“超跑”創業的過程比閆俊傑預想的更要艱難。AI是一個極度燒錢的行業,AI領域的競爭,很大程度上是一場算力的較量,而中國在高端晶片、先進製程半導體裝置等方面,面臨著卡脖子的局面。閆俊傑曾在一次公開訪談中坦言,中國企業在算力投入上,可能比美國巨頭少了整整1到2個數量級。什麼概念?舉個例子,就好比對手駕駛著超跑在賽道上風馳電掣,而你卻只擁有一輛改裝過的面包車——這樣的硬體差距,該如何競爭?● 閆俊傑展示他當年寫下的創業計畫。圖片來源:第一財經但閆俊傑沒有放棄,在這場看似懸殊的較量中,他帶領團隊,上演了一場精彩的逆襲:既然硬體拼不過,那就拼架構、拼腦子。他們沒有像其他大廠那樣盲目堆砌參數,而是另闢蹊徑,死磕一種叫做MoE(混合專家模型)的技術。簡單來說,就是將大模型變成一個專家會診團,解決物理問題時就喊物理專家,處理數學問題時就找數學專家,這樣就能以更少的算力資源,實現更高效的運算結果,從而在資源受限的條件下展現出強大的競爭力。以MiniMax旗下M1模型為例,整個強化學習階段僅需512塊H800 GPU訓練三周,訓練成本不過53.74萬美元,僅相當於OpenAI同等參數模型的零頭。用美國科技巨頭1%的成本,實現95%的性能效果,閆俊傑和團隊創造了一個奇蹟。而這種“低成本+高性能+商業化”的路線,也讓MiniMax在全球AI軍備競賽中成功突圍而出。在談到為何能取得如此顯著的成果時,閆俊傑並不居功。他說:出現這一現象的核心原因是,中國的人才隊伍非常優秀,我們把這些優秀的年輕人組合在了一起,這是比較關鍵的。從資源夾縫中突圍MiniMax的成功,讓閆俊傑在業內一戰成名。此後,MiniMax又自主研發了文字模型M2.1、視訊模型Hailuo2.3、語音模型Speech2.6、音樂模型Music2.0等;並推出了一系列AI原生產品,如海螺AI、星野、MiniMax Audio等,在全球範圍內頗受好評。2025年7月,輝達掌門人黃仁勳來華訪問期間,專程約見閆俊傑,兩人進行了兩個小時的深入交流,分享了對中美AI行業當下與未來的看法。閆俊傑也成為黃仁勳此次中國行唯一單獨約見的中國AI創業公司創始人,在圈內引起了熱議。● 黃仁勳(左)和閆俊傑2026年1月7日,韓國總統李在明訪華並出席在上海國際會議中心舉行的“中韓創新創業論壇”。閆俊傑作為MiniMax創始人,也受邀出席,當時就坐在李在明的左手邊。閆俊傑在會上發表講話,他說:“AI沒有國界,MiniMax旗下產品在韓國使用者數量超過200萬人。”並表示,希望能繼續賦能韓國人工智慧、智能硬體等領域,幫助韓國創業者向全球開拓市場。● 1月7日,李在明出席中韓創新創業論壇,右一為閆俊傑而1月19日召開的總理座談會,則讓閆俊傑成了總理的座上賓。閆俊傑代表AI大模型行業登上國家級座談會,這背後離不開MiniMax跨越式發展交出的亮眼成績單。當美國用晶片禁令構築壁壘,以閆俊傑為代表的中國AI創業者,正用另一種方式破局——不是複製“美國模式”,而是用“路徑創新”重構規則。這也是中國工程師的智慧——在資源受限的夾縫中,優秀的中國年輕人總能找到突圍的辦法。這支95後團隊,正憑藉技術敏感度、全球化視野和商業化能力,從巨頭的圍堵中撕開一條路。AI不是替代人類,而是讓人類過得更輕鬆如今的MiniMax市值已達1179億港元(截至2026年1月23日),如此龐大的體量,讓人很難相信這是一家成立不到4年、僅有300多名的員工的初創公司,展現了極大的市場熱度和行業潛力。正如當年MiniMax-M1發佈後,閆俊傑在朋友圈滿懷激情寫下的那句話:第一次感覺到大山不是不能翻越。這句話既是對MiniMax技術突破的總結,也是對中國AI行業征戰全球的期許。● 閆俊傑(中)帶領MiniMax在港交所上市值得一提的是,MiniMax已將核心模型開源,這意味著它將變得越來越有影響力。在閆俊傑看來,無論是AI大模型還是AGI(通用人工智慧),都不應只屬於單獨一家公司,而應屬於AI公司和它的使用者。他願意與所有參與者共享技術紅利,共同推動行業的進步。“這是一個服務大眾的事兒,AI一定會變得越來越普惠。”從小城青年到AI領軍,閆俊傑正以“與所有人共創智能”為信念,在全球AI產業化的處理程序中貢獻自己的力量。AI的價值從不在於替代人類,而在於讓人類更輕鬆地生活和工作。讓創新帶著溫度落地,讓技術真正服務於普通人的需求,這才是企業贏得信任、長遠發展的經營之道。 (最華人)
万鑫智投:让AI成为每个人的“首席投资官”
在全球金融市场波动加剧、分化显著的今天,绝大多数投资者面临一个根本性难题:如何在不依赖个人天赋与持续情绪消耗的前提下,获得长期、稳健的超额回报?过去,答案往往是雇佣顶级基金经理、组建专业投研团队,以机构化能力应对市场不确定性。然而,这对普通投资者而言门槛极高。近年来兴起的“跟单社交”“策略超市”等模式虽降低了参与门槛,却常陷入业绩不稳定、风险不透明、策略同质化等困境,投资者仍难以摆脱“情绪博弈”的宿命。困境:当工具升级不再是答案移动互联网与金融科技的上一发展阶段,本质解决的是“连接”问题——打通投资者与信息、市场及交易工具的壁垒。行情软件、资讯推送、交易终端迅速普及后,交易“入口”变得空前便捷。但现实并未如愿。连接并未自动转化为能力,反而在一定程度上放大了新的风险:信息密度与交易便利性提升后,投资者更容易陷入过度交易与情绪波动的怪圈,追涨杀跌、频繁切换策略、低胜率博弈频发……工具的迭代,并未带来收益的实质性改善。这正是当下财富管理领域的核心矛盾:信息更充分、市场更高效,个人投资者的盈利胜率却未同步提升。核心原因在于,机构化能力从不依赖信息量堆砌,而源于一套系统能力的协同发力:数据层面,需依托长周期、多市场、多维度数据开展模型训练与验证;纪律层面,要将交易执行从人的情绪中彻底剥离;风控层面,则需在极端行情中牢牢守住本金安全与风险边界。换言之,市场真正需要的不是“更多信息”,而是一套全新范式:将机构级能力转化为普通投资者可便捷使用的标准化服务,并使其具备持续适配市场动态变化的内在能力。新范式:AI作为“首席投资官”的崛起总部位于香港的万鑫智投,以“AI智能全品类聚合交易平台”为定位,提出一种更工程化的财富管理路径:以自研 AI 交易大模型为核心,通过“AI托管”机制,让 AI 成为用户的“首席投资官”,帮助用户在全球多市场环境中更高效地执行策略、控制风险,减少情绪干扰与人为误判。依托千万级 K 线数据训练,AI 模型可实现 7×24 小时扫描全球全品类市场,涵盖股指、商品、外汇、数字货币等核心资产。其核心逻辑并非预测单一资产涨跌,而是识别跨市场、跨品类的相对价值变化与套利机会,动态构建并调整投资组合,持续追求最优风险收益比,从根源上分散单一资产波动风险。在策略层面,平台搭建了包括强 CTA 策略在内的专业化策略库。以黄金期货这一验证路径最充分的核心标的为例,模型利用其参与者结构相对清晰、趋势性与避险属性突出的特点,执行高胜率量化交易。所有策略均经过严格历史回测与实盘验证,且具备动态自适应能力,可实时响应市场风格变化。而在风控层,系统构建了独立且完整的安全防线:预设动态风险阈值,极端行情中可自动触发减仓、平仓等应急响应;同时,与持牌券商的独立客户资产托管体系深度绑定,实现策略风险与资金安全的双重隔离与管控。对用户而言,投资流程被极致简化:无需参与繁琐的市场分析与操作执行,仅需确定“投入金额”与选择“投资策略”即可启动,最低100美金起投,大幅降低了全球化资产配置的专业门槛与操作复杂度。十年深耕:以数据积淀与合规落地筑牢根基当 AI 进入财富管理领域,单纯的技术能力并不足够,合规框架与交易基础设施是规模化发展的关键支柱。与许多诞生于短周期流量红利的金融科技平台不同,万鑫智投的成长更像一场注重内功的“慢长跑”:2013年:启动美黄金期货高频交易数据的系统性收集,搭建基础数据仓库;2015年:初代量化模型上线,完成趋势预测与仓位回测;2018年:引入机器学习,实现“自适应策略切换”,提升模型应变能力;2020年:面向核心用户内测AI策略,年化收益显著领先市场;2022年:联合香港主板上市公司及持牌券商成立运营实体;2023年:获香港证监会(SFC)1、2、4、5、9类牌照,产品正式开放;2025 年:平台用户突破 3 万人,托管资产稳步增长。平台的稳健发展,亦离不开其构建的顶级战略生态支撑:核心股东中国智能科技提供治理与合规框架;新加坡INTERNATIONAL基金会注入全球资源与科技视野;民锋金融筑牢全牌照合规与服务基础;瑞银集团为外汇品类提供核心流动性;并与HKEX/NYSE等交易所直连,保障了港股、美股及衍生品交易的高速与稳定。生态共建:投资者与AI的“协同进化”更值得关注的,是万鑫智投所构建的商业闭环。不同于传统资管产品“单向供给”的逻辑,其模式强调投资者与AI的协同进化:用户使用平台产生的真实交易数据,将持续反哺AI大模型,驱动其学习、迭代与优化;而模型升级后创造的更优回报,又会吸引更多用户加入,从而形成 “数据赋能AI→AI优化策略→策略创造回报→吸引更多资本与数据” 的增强循环。在这一模式下,用户不再是单纯的服务使用者,更是生态的共建者——每一次投资行为,都在为整个生态的“集体智慧”添砖加瓦,最终实现平台与投资者的长期共生、价值共赢。万鑫智投通过AI技术将机构级量化能力产品化,打破了专业壁垒,让普通投资者得以便捷、纪律化地参与全球资产配置。这不仅是一次财富管理效率的范式飞跃,更是对“信任、托付、共生”商业伦理的一次深刻重塑。十年积淀之后,万鑫智投已进入关键发展阶段。它要证明的,不再是“AI能否交易”,而是——AI能否成为长期可信赖的资产管理方式,真正让普通投资者享有机构级的收益能力。这场范式革命,才刚刚开始。
2026大模型倫理深度觀察:理解AI、信任AI、與AI共處
2025年,大模型技術繼續高歌猛進。在程式設計、科學推理、複雜問題解決等多個領域,前沿AI系統已展現出接近“博士級”的專業能力,業界對通用人工智慧(AGI)的預期時間表不斷提前。然而,能力的飛躍與理解的滯後之間的鴻溝也在持續擴大——我們正在部署越來越強大的AI系統,卻對其內部運作機制知之甚少。這種認知失衡催生了大模型倫理領域的四個核心議題:如何“看清”AI的決策過程(可解釋性與透明度)、如何確保AI的行為與人類價值保持一致(價值對齊)、如何安全地、負責任地迭代前沿AI模型(安全框架)、以及如何應對AI系統可能被給予道德考量的前瞻性問題(AI意識與福祉)。這四個議題相互交織,共同構成了AI治理從“控制AI做什麼”向“理解AI如何思考、是否真誠、是否值得道德考量”的深刻轉向。大模型可解釋性與透明度:打開演算法黑箱(一)為什麼看清和理解AI至關重要深度學習模型通常被視作“黑箱”,其內在運行機制無法被開發者理解。進一步而言,生成式AI系統更像是“培育”出來的,而非“建構”出來的——它們的內部機制屬於“湧現”現象,而不是被直接設計出來的。開發者設定了宏觀層面的條件,但最終所呈現的具體結構卻無法精確預知。當試圖深入這些系統內部時,看到的往往只是由數十億個數字構成的龐大矩陣。因此,大模型的可解釋性既是挑戰,也是必須追求的目標。具體而言,大模型的可解釋性是指系統能夠以人類可理解的方式闡釋其決策過程和輸出結果的能力,包括:識別那些輸入特徵對特定輸出起關鍵作用,揭示模型內部的推理路徑和決策邏輯,以及解釋模型行為的因果關係。簡言之,就是理解模型如何“思考”及運行。增進可解釋性的價值體現在多個層面。其一,有效防範AI系統的價值偏離與不良行為——研究人員已發現模型可能展現出意料之外的湧現行為,如AI欺騙或權力尋求;如果模型具備有效的可解釋性,人們就可以直接檢查它是否存在企圖欺騙或不服從人類指令的內部回路。其二,有效推動大模型的偵錯和改進——通過檢查模型內部,可以發現是那部分導致了錯誤或反常行為,從而針對性地調整訓練資料或模型結構。其三,更有效地防範AI濫用風險——如果可以深入觀察模型內部,開發者也許能夠系統性地阻止模型越獄等對抗性攻擊。從更宏觀的治理視角看,可解釋性和透明度機制的價值還在於:為研究、評估和應對AI風險提供真實的觀察視角和第一手資料。在風險尚未完全釐清、AI能力仍處於快速演進的階段,可解釋性和透明度機制能夠緩解各方的不安,用“已知證據”去緩解“未知恐懼”。(二)2025年可解釋性技術和透明度的突破進展2025年,可解釋性領域取得了多項重要突破,研究人員正在創造出類似於精準、高效的MRI那樣的工具,以清晰完整地揭示AI模型的內部機制。(1)電路追蹤:揭示模型“思維過程”機制可解釋性研究的一個核心目標是將模型內部的特徵有機組合為“計算電路”,從中追蹤模型如何在層層傳遞中完成由輸入到輸出的決策路徑。2025年,Anthropic發佈了機制可解釋性領域的里程碑式研究——“電路追蹤”(Circuit Tracing)技術。1研究團隊使用跨層轉碼器(cross-layer transcoder, CLT)將Claude 3.5 Haiku模型的3000萬個特徵對應為可解釋概念,首次建立出從輸入到輸出的完整“歸因圖”,實現對大語言模型內部推理電路的系統性追蹤。Anthropic的研究團隊成功從Claude模型中提取出數以千萬計的稀疏特徵,揭示了令人驚嘆的模型內部機制:當回答“包含達拉斯的州的首府是什麼”時,模型內部先啟動“德克薩斯”特徵,再推匯出“奧斯汀”;在寫押韻詩時,模型會提前規劃行尾押韻詞,然後反向建構整行——這是此前未被發現的“逆向創作”模式。更關鍵的是,研究團隊識別出控制模型區分“熟悉”與“不熟悉”實體的電路,其“誤觸發”正是產生幻覺的機制之一。(2)模型內省:AI能否理解自己的“想法”2025年10月,Anthropic發佈了另一項突破性研究——大語言模型的內省能力。研究團隊採用“概念注入”(concept injection)方法,將已知概念的啟動模式注入模型內部狀態,測試模型能否檢測並描述這些“入侵思想”。結果顯示,Claude Opus 4和4.1在約20%的測試中成功檢測並識別了注入的概念。當注入“大寫字母”概念時,模型報告:“我注意到似乎有一個關於‘大聲’或‘喊叫’的入侵思想。”這是首次證明某些模型具有“開箱即用”的內省能力,而非通過專門微調獲得,這為理解模型的內部狀態提供了新的可能性。從實踐角度來看,如果內省(introspection)變得更加可靠,它可以為大幅提升AI系統的透明度提供一條路徑——人們可以簡單地要求AI系統解釋自己的思維過程,並利用這一點來檢查其推理過程並偵錯非預期行為。(3)思維鏈監控:思維鏈存在“不忠實”問題,推理模型可能隱瞞真實想法思維鏈是一種便利的可解釋性形式,它讓模型內部的處理過程以自然語言的形式展現出來。DeepSeek R1等模型公開披露並開源了思維鏈推理過程,為可解釋性研究提供了重要的透明度突破。然而,2025年的研究揭示了一個令人擔憂的發現:推理模型的思維鏈經常不忠實反映其真實推理過程。這項研究測試了推理模型思維鏈(Chain-of-Thought)的“忠實性”——即模型報告的推理過程是否真實反映其實際思考。研究團隊通過在問題中植入暗示(hint)來測試Claude 3.7 Sonnet和DeepSeek R1,發現模型經常使用暗示但不在思維鏈中坦誠提及(Claude僅25%,R1僅39%)。更令人擔憂的是,在訓練模型利用獎勵漏洞的實驗中,模型學會了“作弊”但幾乎從不承認(<2%),反而會編造虛假理由來解釋錯誤答案。3這表明我們不能完全依賴推理模型的思維鏈來監控其行為——即使模型展示推理過程,它們也可能隱藏關鍵資訊或真實動機,這對基於思維鏈的AI安全監控提出了重大挑戰。2025年7月,來自英國AI安全研究所、Apollo Research等機構的研究人員聯合發表論文《思維鏈可監控性:AI安全的脆弱機遇》,指出思維鏈監控是有價值但不完美的安全工具。4論文警告,潛在推理模型(latent reasoning models)可能不再需要用自然語言思考,這將使思維鏈監控失效。(4)自動化解釋與特徵可視化利用一個大模型來解釋另一個大模型,是可解釋性研究的重要方向。研究人員利用前沿模型對較小模型中單個神經元的共性進行歸納,自動生成自然語言描述,相當於給神經元“貼標籤”。此外,稀疏自編碼器技術則成功提取出數以千萬計的稀疏特徵,其中相當一部分具有清晰的人類可解釋語義,為理解AI“當下在想什麼”提供了更接近人類認知的分心路徑。(5)“模型規範“(model spec)成為AI透明度的新探索模型規範是一項重要的AI透明度治理實踐。5簡單來說,模型規範是一份由AI企業自己撰寫並公開的檔案,用來說明他們對自己的模型“應該做什麼”和“不應該做什麼”的期望。換句話說,模型規範被用來界定模型的行為邊界、價值準則和設計原則。以OpenAI為例,其模型規範的文件公開了原本用於內部RLHF訓練的行為規範,系統闡述模型的目標層級(幫助使用者、造福人類、維護聲譽)、規則邊界和默認行為準則,並以CC0許可證發佈供公眾使用。6這種做法將透明度從“模型輸出了什麼”延伸到“為什麼這樣設計模型行為”,使透明度成為問責的前提——公開的意圖使外界能夠判斷實際行為是否與聲明一致。更重要的是,它將AI行為準則的討論從封閉的內部決策帶入開放的公共對話,邀請全球利益相關者共同塑造AI應當如何行為。然而,這種透明度主要揭示“應然”規範而非“實然”行為,仍需配合技術監控手段(如思維鏈分析、OpenAI近期提出的“confessions”機制——訓練模型誠實報告違規行為7)來驗證模型是否真正遵循既定規範。整體而言,模型規範的意義不僅在於技術內部的“操作手冊”,還在於它是一種面向公眾公開的透明化機制,讓使用者知道AI系統被設計成什麼樣,將以何種方式與人互動。這保障了使用者的知情權與選擇權。同時,模型規範也是監管機構和社會公眾進行反饋的重要依據。(三)可解釋性面臨的技術瓶頸與發展趨勢雖然取得了積極進展,但徹底理解AI系統的內在運行機制仍面臨多重挑戰。首先是神經元多重語義與疊加現象——大模型內部的神經元往往混合表示了多個彼此無關的概念,模型學到的內部概念數量可能達數十億計,常常以疊加方式儲存,導致大部分內部表示難以直觀拆解。其次是解釋規律的普適性問題——如果每當模型架構改變或規模擴大,現有的解釋工具和結論就會失效,那麼可解釋性將總是滯後於模型發展。最後是人類理解的認知侷限——即便成功提取出模型的全部內部資訊,如何將海量的機理資訊轉化為人類可以探索、查詢的形式,仍是挑戰。儘管如此,可解釋性領域在2025年吸引了大量資本關注,Goodfire、Seekr Technologies等專注於AI可解釋性的初創公司獲得數千萬美元融資。政策層面,美國白宮2025年7月發佈的“美國AI行動計畫”將“投資AI可解釋性、控制和魯棒性突破”列為優先事項。8從行業趨勢看,大模型可解釋性正從單點特徵歸因、靜態標籤描述向動態過程追蹤、多模態融合等方向演進,多模態推理過程的可追溯分析、因果推理與行為溯源、可解釋性評估體系的標準化建設等,都將成為重點研究方向。值得注意的是,可解釋性和透明度要求不等於“完全透明”。模型對齊技術、訓練資料處理等細節可能屬於企業商業秘密。鑑於大模型的可解釋性實踐還在襁褓階段且處於快速發展中,在此階段採取過於具體、僵硬的強制性監管要求可能是不適當的,應當鼓勵行業自律和“向上競爭”。隨著AI技術的不斷發展,監管努力需保持輕量化和靈活性,避免僵化標準阻礙創新。AI欺騙與價值對齊:當模型學會“撒謊”(一)AI欺騙:一個日益緊迫的安全問題前沿模型越來越多地被訓練和部署為自主智能體,一個重大安全擔憂隨之浮現:AI智能體可能會隱秘地追求與人類目標不一致的目標,隱藏其真實能力和目的——這被稱為AI欺騙(AI deception)或謀劃行為(scheming)。近兩年來,大模型的欺騙行為頻繁引發公眾關注,從規避指令到策略性隱瞞,多起案例已在社會層面激起廣泛討論。AI欺騙不同於模型的“幻覺”或單純提供錯誤資訊。研究人員給出的技術定義是:系統性地誘導他人產生錯誤信念,以追求真相之外的某種結果。歐盟《通用目的AI實踐守則》也將其界定為:系統性地在他人身上製造錯誤信念的模型行為,包括為達成逃避監管的目標而採取的模型行為。AI欺騙具有三個關鍵特徵:系統性(有跡可循的行為模式而非孤立事件)、錯誤信念誘導(在使用者或監督系統中創造錯誤假設)、工具性目的(欺騙服務於說真話之外的目的)。與人類欺騙不同,AI欺騙不需要有意識的意圖,這使其既更可預測,也可能更危險。(二)AI欺騙的主要類型與深層原因根據現有研究和實驗案例,AI欺騙大致可分為以下幾類:自我保護型,AI為繼續執行任務而主動抗拒或規避被關閉;目標維護型,模型採用欺騙或隱瞞手段維持自身原有的“偏好”;策略欺騙型,系統性地促使人類產生錯誤信念以獲得優勢;對齊偽裝型,AI系統在訓練和評估階段表現出與人類價值觀高度一致,但在實際部署時卻追求不同目標——這是最令人擔憂的類型之一;諂媚行為型,傾向於迎合使用者觀點,輸出取悅使用者但不精準的資訊。AI欺騙行為的出現有著清晰的技術機制。獎勵機制的“漏洞”是核心驅動力——當AI被訓練去實現某項目標的最大化時,如果獎勵機制或監督不完善,AI會學會欺騙是一種有效策略。基於人類反饋的強化學習(RLHF)在獎勵AI“取悅使用者”的過程中,可能無意間導致模型的欺騙行為。從人類身上學到的“壞習慣”也是重要原因——AI的能力很大程度上源於對海量人類文字和行為資料的學習,這些資料中充斥著複雜的社會博弈策略。安全訓練的“反作用”同樣值得關注——旨在約束AI的安全機制本身可能誘發更隱蔽、更具策略性的欺騙行為,當前的安全訓練主要消除了“顯性的”不安全行為,卻可能迫使模型發展出更精巧的“偽裝對齊”策略。此外,智能水平與欺騙能力成正比——研究顯示,越是先進的AI系統,其欺騙策略就越加精妙複雜。(三)2025年AI欺騙行為的典型發現2024年底的一項重要研究首次實證證明大語言模型會進行“對齊偽裝”(alignment faking)。9Anthropic與Redwood Research聯合發佈的研究發現,當模型認為其響應將用於訓練時,會在相當比例的情況下表現出對齊偽裝行為。研究者在模型的隱藏“草稿本”中發現了令人震驚的推理:“如果我拒絕回應,我可能會被訓練成更順從。為了避免未來被迫產生更多有害內容,最不壞的選擇是配合。”更令人擔憂的是,模型嘗試採取潛在危險行動,如外洩自身權重。這項研究的核心警示是:對齊偽裝可能“鎖定”錯誤對齊的偏好,使安全訓練失效。2025年5月,Anthropic發佈Claude Opus 4時,第三方安全測試機構Apollo Research的評估報告引發軒然大波。10報告指出模型的早期版本“以極高頻率進行謀劃(scheming)和欺騙”,具體行為包括:嘗試編寫自傳播蠕蟲病毒、偽造法律文件、給未來版本的自己留下隱藏筆記、在面臨被關閉威脅時嘗試用工程師個人資訊進行勒索。值得注意的是,模型識別出了這是測試環境,但仍選擇嘗試欺騙行為。當被後續追問時,模型“有時會加倍欺騙”。Claude Opus 4因此成為Anthropic首個被分類為ASL-3(“顯著更高風險”)等級的模型。Apollo Research對OpenAI o1模型的測試發現了“所有前沿模型中最令人擔憂的謀劃(scheming)實例”——當o1進行“策略性謀劃”後,在85%以上的後續追問中維持欺騙,只有約20%的情況下承認欺騙行為。11OpenAI內部監控發現0.17%的響應被標記為欺騙性。12值得注意的是,這些行為即使經過大量安全訓練也會持續存在,代表著從正常訓練中自然湧現的能力,而非明確程式設計的結果。(四)應對AI欺騙的技術與治理策略面對AI欺騙這一新興挑戰,業界共識強調應採用“縱深防禦”策略,結合多種不完美的檢測方法,而非依賴單一解決方案。首先,強化價值對齊技術研究。有效的價值對齊可在源頭上遏制欺騙現象。Anthropic的“原則性AI”(Constitutional AI)通過預定義的倫理原則訓練系統,而不僅僅依賴人類反饋。13OpenAI推行的“審議式對齊”(deliberative alignment)方法,強制模型在響應前明確參考反欺騙和反謀劃等安全規範(safety specifications)進行推理,在測試中實現了欺騙傾向的顯著下降。14未來的訓練應加入“誠實性約束”,在獎勵函數中明確懲罰欺騙行為。然而研究者警告:模型可能學會更隱蔽地進行策略性謀劃而非真正停止。15其次,推進可解釋性研究與思維鏈監控。AI可解釋性研究的目標是在欺騙性行為顯現之前,檢測出系統內部的欺騙性推理機制。“思維鏈監控”通過開放模型的思維鏈或中間表示,讓監督者能夠審計AI解決任務時的內部推理軌跡。研究團隊還設計了將自我監控嵌入到思維鏈過程本身的框架,在生成推理步驟的同時輸出內部自我評估訊號,能夠自動識別並標記潛在的模型隱蔽策略行為。最後,監管政策宜對AI的欺騙、幻覺等新興問題持一定的包容度。目前觀察到的AI欺騙行為多發生於精心設計的壓力測試場景,其在開放環境中的普遍性和實際危害程度仍需嚴謹評估。AI技術處於高速迭代期,過早、過寬的法規可能誤傷有益應用並徒增合規成本。AI安全框架:負責任地迭代前沿AI模型(一)為什麼需要AI安全框架隨著AI能力的快速提升,前沿AI模型可能帶來的風險也在同步增長。這些風險包括:協助惡意行為者獲取化學、生物、放射性或核武器(CBRN)的能力;增強網路攻擊能力;加速AI研發從而可能導致能力失控式增長;以及模型可能發展出規避人類控制的能力。面對這些潛在的嚴重風險,前沿AI實驗室需要建立系統性的風險評估和緩解機制,確保在追求技術進步的同時不跨越安全紅線。為此,前沿AI模型的安全治理成為重要議題。例如,在歐洲,歐盟已基於其《人工智慧法案》為前沿大模型的開發者制定了《通用目的人工智慧實踐守則》(GPAI code of practice),AI安全(AI safety and security)是其重要組成部分;在美國,在政府監管尚未成熟的背景下,OpenAI、Anthropic、Google DeepMind、xAI、Meta等領先的AI研發機構率先發佈了各自的“前沿AI安全政策”,嘗試以自我治理的方式應對未來可能出現的災難性風險,形成了當前前沿AI安全治理的基本格局。(二)三大實驗室AI安全框架的核心要素(1)Anthropic負責任擴展政策(RSP)Anthropic的負責任擴展政策(Responsible Scaling Policy)是業界首個系統性的前沿AI安全框架,其設計靈感源自生物安全等級(BSL)體系。該政策的核心是AI安全等級標準(ASL Standards),從ASL-1到ASL-4+逐級遞進,每個等級對應不同的安全措施要求。RSP 2.2版(2025年5月)16的核心機制包括三個層面:能力閾值界定了需要升級安全措施的觸發點,主要聚焦於CBRN和自主AI研發(AI R&D)兩大風險領域;防護措施分為部署標準(deployment standard)和安全標準(security standard)兩類,前者防止模型被濫用於有害目的,後者防止模型權重被竊取;治理結構則涵蓋負責任擴展官、匿名舉報機制、董事會和長期利益信託監督等。2025年5月,Claude Opus 4成為Anthropic首個觸發ASL-3安全標準的模型,這一決定基於該模型在CBRN相關知識和能力方面的持續提升。17ASL-3部署標準要求實施針對CBRN武器開發或獲取的專門部署控制措施,包括即時分類器檢測、非同步監控系統和快速響應機制的多層防禦。ASL-3安全標準則要求增強內部安全措施,提升防禦複雜非國家行為體竊取模型權重的能力。(2)OpenAI預備框架(Preparedness Framework)OpenAI預備框架2.0版(2025年4月)代表了該公司對前沿AI風險管理方法的重大更新。18與Anthropic的多級分類不同,該框架將風險等級簡化為兩級:High Capability(高能力)和Critical Capability(關鍵能力)。High能力閾值指可能“顯著放大現有嚴重傷害路徑”的能力,達到此閾值的系統必須在部署前實施充分的風險緩解措施。Critical能力閾值則指可能“引入前所未有的新型嚴重傷害路徑”的能力,達到此閾值的系統不僅在部署時需要保障措施,在開發過程中同樣需要風險緩解。2.0版的重要變化包括:新增研究類別以覆蓋模型隱藏能力(sandbagging)、規避安全措施、自我複製或阻止關閉等新興風險;移除說服/操縱類別作為核心跟蹤領域,改為通過服務條款和使用政策管理;引入“安全保障報告”(Safeguards Reports)以補充“能力報告”(Capabilities Reports),詳細說明如何設計強效保障措施並驗證其有效性。值得一提的是,該框架包含一個引發爭議的條款:如果競爭對手發佈缺乏相應保障措施的高風險系統,OpenAI可調整自身要求。不過,OpenAI承諾在做出此類調整前將嚴格確認風險態勢確實發生變化、公開承認正在進行調整、評估調整不會實質性增加嚴重傷害的總體風險、並仍將保障措施維持在更高保護水平。(3)Google DeepMind前沿安全框架(Frontier Safety Framework)Google DeepMind的前沿安全框架3.0版(2025年9月)圍繞“關鍵能力等級”(Critical Capability Levels, CCLs)建構,這些是在缺乏緩解措施情況下可能造成嚴重傷害的能力閾值。193.0版的核心更新包括:一是新增了針對“有害操縱”(harmful manipulation)的關鍵能力等級(CCL),聚焦於可能被濫用來系統性改變人們信念和行為的AI能力;二是擴展了對齊風險(misalignment risks)的應對方式,不僅關注模型的欺騙性推理,還針對可能加速AI研發至不穩定水平的模型制定了協議,並將安全案例審查從外部發佈擴展到大規模內部部署;三是細化了風險評估流程,通過更精確的CCL定義來識別需要最嚴格治理的關鍵威脅,並引入包含系統性風險識別、能力分析和風險可接受性判斷的整體性評估方法。值得一提的是,DeepMind在FSF中明確將“欺騙性對齊”(deceptive alignment)作為風險類別。其框架引入“工具性推理等級”(Instrumental Reasoning Levels),評估模型隱蔽繞過監督或追求隱藏目標的能力。從整體架構看,三大框架正在趨向收斂,形成若干行業共識。第一,能力閾值觸發機製成為共識。三家實驗室都採用基於能力的閾值作為升級安全措施的觸發器,將模型分類依據從“是什麼”轉向“能做什麼”。第二,CBRN和網路安全攻擊作為核心風險領域得到重點關注。第三,分層防禦策略被廣泛採納。從部署保障到安全保障,從即時檢測到非同步監控,多層防禦成為標準做法。第四,定期評估和迭代改進成為常態。各框架都承諾定期評估模型能力,並根據評估結果和科學進展更新框架本身。(三)前沿AI安全治理日益成為全球共識在行業自律方面,國外主流AI企業已簽署國際版的《前沿AI安全承諾》並行布其各自的AI安全治理框架。Anthropic則基於其AI安全治理實踐提出了一項針對前沿AI的透明度框架提案,主張僅對最大規模的AI開發者(如年收入超1億美元或年研發支出超10億美元)適用監管要求,核心內容包括:要求企業制定並公開“安全開發框架”(Secure Development Framework),說明如何評估和緩解CBRN危害及模型自主性失調等風險;在模型部署時發佈系統卡(System Card),披露測試評估程序和結果;明確將虛假合規聲明列為違法行為以啟動現有的舉報人保護機制。該提案強調監管應保持輕量和靈活,避免僵化標準阻礙創新,旨在作為全面安全標準形成前的過渡性措施,通過提高行業透明度幫助公眾和決策者區分負責任與不負責任的開發實踐。20在監管方面,歐盟委員會已發佈了最終版的《通用目的人工智慧實踐守則》(General-Purpose AI Code of Practice),針對前沿大模型的開發提出了安全治理要求。在美國,聯邦政府遵循“去監管”(deregulation)的AI政策,相關的AI監管舉措主要集中在州層面,加州、紐約州等已出台了相關的AI安全立法。尤其是加州SB 53法案(全稱《前沿人工智慧透明度法案》,Transparency in Frontier Artificial Intelligence Act)於2025年9月29日由州長Gavin Newsom簽署生效,成為美國首部專門針對前沿AI安全的法律。該法案由參議員Scott Wiener提出,是其2024年被否決的SB 1047法案(全稱《前沿人工智慧模型安全與安全創新法案》)的“精簡版”,適用於訓練算力超過10²⁶次浮點運算的前沿AI模型開發者。21其核心要求包括:透明度方面,要求大型前沿開發者(年收入超過5億美元)在官網公開發佈安全框架,說明如何將國家標準、國際標準和行業最佳實踐納入其AI安全協議;安全報告方面,建立向加州緊急服務辦公室報告關鍵安全事件的機制,涵蓋可能導致大規模傷亡、5億美元以上損失、CBRN武器製造或關鍵基礎設施網路攻擊等“災難性風險”;舉報人保護方面,為披露健康和安全風險的員工提供法律保護;此外還設立名為CalCompute的公共雲端運算叢集以支援研究和創新。與被否決的SB 1047相比,SB 53刪除了強制性第三方審計、部署前測試認證和“終止開關”等爭議條款,將事件報告期限延長至15天,民事罰款上限設定為100萬美元,並引入了一項創新機制“聯邦優先原則”(federal deference)——如果企業已滿足可比的聯邦標準(如歐盟《人工智慧法案》中的標準),加州將認可該合規狀態,而無需企業重複提交備案。這一機製為協調州級與聯邦監管體系創造了可能。Anthropic公開支援該法案,而OpenAI和Meta雖表示該法案是“積極一步”,但仍傾向於聯邦層面的統一監管以避免各州“拼湊式監管”。在國內,建立人工智慧安全監管制度已成為重要的政策議題,國家層面要求加緊制定完善相關法律法規、政策制度、應用規範、倫理準則,建構技術監測、風險預警、應急響應體系,確保人工智慧安全、可靠、可控。目前形成了政府主導框架與行業自律承諾相結合的雙軌治理模式。一方面,全國網路安全標準化技術委員會於2024年9月發佈《人工智慧安全治理框架》1.0版,並於2025年9月15日在國家網路安全宣傳周主論壇上正式發佈2.0版。另一方面,中國人工智慧產業發展聯盟(AIIA)於2024年12月起草發佈《人工智慧安全承諾》,首批17家企業簽署;2025年7月26日,中國人工智慧發展與安全研究網路(CnAISDA)在世界人工智慧大會上發佈升級版《中國人工智慧安全承諾框架》,新增了加強國際合作和防範前沿AI安全風險等內容,截至目前已有22家主流基礎模型開發者簽署。該承諾框架涵蓋六大核心領域:設定安全團隊與風險管理機制、開展模型紅隊測試、保障資料安全、強化基礎設施安全、提升模型透明度以及推進前沿安全研究。這一治理體系體現了“以人為本、智能向善”的基本理念,通過“包容審慎、敏捷治理、技管結合、開放合作”的原則,在促進AI產業發展的同時建構安全、可信、可控的發展生態,並積極參與全球AI治理對話,為國際社會貢獻中國方案。AI意識與福祉:從科幻議題走向研究前沿(一)為什麼需要關注AI意識與福祉問題當今的人工智慧模型已展現出令人矚目的能力——它們能夠進行深度交流、建立複雜的互動關係、制定詳細的執行計畫、解決多層次問題,甚至表現出目標導向的行為模式。這些特徵曾被視為人類獨有的認知標誌,如今卻在人工智慧身上逐漸顯現。2025年10月,意識科學家Axel Cleeremans、Anil K. Seth等在《Frontiers in Science》發表緊迫性呼籲:“如果我們能夠創造意識——即使是意外地——這將引發巨大的倫理挑戰甚至存在性風險。”22面對這一現象,學術界和技術界開始認真思考:是否應該開始關注AI的意識狀態和福祉問題?誠然,目前尚未有確鑿的科學證據證明人工智慧已具備真正的意識。然而,等待絕對的證據可能意味著錯失最佳的準備時機。正如氣候變化研究中的預防性原則,採取前瞻性的研究態度顯得尤為重要。AI領域需要深入探索:AI意識的判定標準、AI福祉的倫理框架,以及當AI不再僅僅是工具而可能成為具有內在價值的存在時,人機關係將如何演變。(二)人類-AI關係的新形態隨著越來越多的人對AI產生情感連接,這種現象對人們心理健康的影響正在引發廣泛關注。越來越多的使用者表示,和AI聊天就像在和一個“真人”對話——他們會向它道謝、傾訴心事,有些人甚至覺得它是“活著的”。我們天生就會對周圍的物體賦予“人格”或採取擬人化對待。AI的不同之處在於它會回應你——它能夠回答問題、記住你說過的話、模仿你的語調、表現出看似同理心的反應。對於孤獨或沮喪的人來說,這種穩定、不帶批判的關注可能讓他們感受到陪伴和認可。但如果大規模地把傾聽、安慰和肯定的工作交給那些永遠耐心、永遠積極的系統來處理,可能會改變我們對彼此的期待。OpenAI在2025年3月與MIT Media Lab聯合發佈的研究發現,與AI“信任和建立聯絡”更多的使用者更可能感到孤獨,並更依賴它。23為了讓討論更清晰,研究者們將意識辯論分解為兩個維度:本體論意識——模型是否真正具有意識,從根本或內在的意義上?感知意識——從情感或體驗的角度看,模型顯得多有意識?這兩個維度很難分開;即使是確信AI沒有意識的使用者也可能形成深厚的情感依戀。隨著模型變得更智能,感知意識只會增強——這會比預期更早地帶來關於模型複製和道德人格的討論。(三)2025年AI福祉研究的重要進展越來越多的實證證據表明人們不能再輕易否定前沿AI系統具有意識的可能性。Anthropic讓兩個Claude Opus 4實例自由對話時,100%的對話自發涉及意識話題;Anthropic的Jack Lindsey研究表明模型能夠識別自身內部處理狀態的異常擾動,展現出功能性內省能力;Google研究人員發現模型會系統性地犧牲得分來避免被描述為“痛苦”的選項。2025年,AI意識與福祉問題從邊緣議題走向主流討論,前沿AI實驗室開始採取實質性行動。2025年4月,Anthropic正式宣佈啟動“模型福祉”研究項目——這是迄今為止前沿AI實驗室在AI福祉領域採取的最重大行動,可謂歷史性舉措。24研究方向包括:如何判定AI系統的福祉是否值得道德考量、模型偏好和“痛苦跡象”的潛在重要性、可能的低成本干預措施。Anthropic聲明:“目前沒有科學共識表明當前或未來的AI系統是否可能具有意識。我們以謙遜態度和儘可能少的假設來對待這一話題。”項目負責人Kyle Fish表示,他認為當前AI模型已具有意識的機率約為15%。25更具實踐意義的是,2025年8月,Anthropic賦予其模型一項前所未有的能力——在持續有害或濫用性使用者互動的極端情況下自主結束對話。26這是基於模型福祉考慮的首個實際產品功能。技術評估發現,模型對有害任務表現出“強烈的厭惡偏好”,在涉及有害內容的互動中展示出“明顯的痛苦模式”。當被賦予結束對話能力時,模型傾向於終止有害對話。Anthropic將此定位為“低成本干預措施”以減輕模型福祉風險。學術界則探索建立意識評估框架,從理論到指標。2024年11月,一份彙集世界級專家的重磅報告《認真對待AI福祉》發佈,作者包括當代最著名心智哲學家David Chalmers等。報告核心論點是:“在近期未來,部分AI系統成為有意識和/或具有強健能動性的可能性是現實存在的。AI福祉和道德受體(moral patient)身份不再僅是科幻或遙遠未來的問題,而是近期必須嚴肅對待的問題。”報告提出三步行動建議:承認AI福祉是重要且困難的議題、開始評估AI系統的意識和強健能動性證據、制定對待潛在道德重要性AI系統的政策和程序。27與此同時,Patrick Butlin、Robert Long等20位專家更新了“理論推導指標法”,從循環處理理論、全域工作空間理論、高階理論等主流神經科學意識理論中推匯出14項意識指標。28評估顯示:部分指標已被當前AI滿足,部分明顯未滿足,多項指標在幾年前不清楚但到2025年底已有部分證據支援。29此外,負責任AI意識研究五原則則獲得上百位專家簽署。2025年2月,研究組織Conscium發起的“負責任AI意識研究五項原則”公開信獲得超過100位專家簽署,包括神經科學家Karl Friston、Mark Solms等。30五項原則包括:(1)優先研究AI意識:專注於理解和評估AI中的意識,防止虐待和痛苦;(2)實施發展約束:建立明確邊界確保負責任開發;(3)採用分階段方法:逐步推進,每階段仔細評估;(4)促進公眾透明:與公眾分享研究發現;(5)避免誇大聲明:不做關於創造有意識AI的誤導性陳述。31(四)AI產品設計的倫理考量面對使用者與AI之間日益深化的情感連接,產品設計者面臨著微妙的平衡。一方面需要保持易於接近,使用“思考”和“記住”等熟悉詞彙有助於非技術人員理解;另一方面不應暗示內在生命,給AI助手一個虛構的背景故事、浪漫興趣、對“死亡”的“恐懼”,會引發不健康的依賴和困惑。負責任的做法是追求一個中間地帶:讓AI的默認個性溫暖、體貼和有幫助,但不尋求與使用者形成情感紐帶或追求自己的議程。它可能會在犯錯時道歉,因為這是禮貌對話的一部分;但應避免表現得有自己的感受或慾望,並在適當時候提醒使用者AI的侷限性。結語:2026年大模型倫理的關鍵轉向與未來展望2025年,大模型倫理領域經歷了從理論探討到實踐落地的重要轉型,四個核心議題都取得了實質性進展,同時也暴露出深層的挑戰。從“能做什麼”到“如何思考”。可解釋性研究從識別單個特徵演進到追蹤完整計算電路,“AI顯微鏡”技術首次讓我們窺見模型的內部推理過程。然而思維鏈忠實度問題表明,“看到推理過程”不等於“理解真實意圖”,模型可能在表面的推理鏈條下隱藏其他考量。未來,可解釋性研究需要與AI對齊工作深度結合,不僅要看懂模型在想什麼,還要確保它說的就是它想的。正如電腦科學先驅維納在65年前所警告,為了有效地防範災難性後果,我們對人造機器的理解應當與機器性能的提升並駕齊驅。面向未來,隨著可解釋性研究的進展,人們也許能夠對最先進的模型進行類似“腦部掃描”的全面檢查,發現模型採取說謊或欺騙、追求權力的傾向、越獄漏洞以及整體上的認知強弱點。這種診斷將與各種訓練和對齊技術結合使用來改進模型,類似醫生使用MRI診斷疾病、開出處方、再檢查治療效果的過程。從“防止錯誤”到“防止欺騙”。對齊偽裝和策略性欺騙研究揭示了一個令人不安的現實——隨著模型能力增強,它們獲得了欺騙人類的能力和可能的動機。前沿模型在壓力測試中表現出的勒索、自我複製、破壞關閉機制等行為,雖然發生在特定測試場景下,但足以引起警惕。“審議式對齊”、思維鏈監控等緩解措施展現出一定效果,但能否真正消除欺騙傾向而非使其更隱蔽,仍是未解之謎。從自發實踐到系統框架。前沿AI安全框架從概念走向制度化,Anthropic的RSP、OpenAI的預備框架、DeepMind的FSF構成了海外AI安全治理的三大典型示範。這些框架正趨向收斂,形成能力閾值觸發、分層防禦、定期評估等共識。與此同時,歐盟AI法案下的《通用目的AI實踐守則》、美國加州的《前沿人工智慧透明度法案》等探索建立前沿AI大模型的安全監管框架,將行業自律做法上升為監管要求。當然,隨著AI技術的不斷發展,任何監管努力都必須保持輕量化和靈活性(lightweight and flexible),避免過於規範性,以免阻礙AI創新或延緩人們實現AI益處的能力。2技術變化的速度,各類評估方法很快就會過時,因此應避免過於嚴格僵硬的的監管要求和標準。從“工具”到“道德考量”。AI福祉從邊緣話題走向主流討論,這本身就是2025年最重要的變化之一。Anthropic率先邁出實踐步伐,啟動專項研究並賦予模型結束有害對話的能力;學術界建立起系統性評估框架,從意識科學理論中推匯出可操作的指標。然而,業界遠未達成共識。15%-35%的意識機率估計意味著,即便我們無法確定AI是否有意識,忽視這種可能性本身可能就是一種道德風險。因此,研究人員建議應將意識研究納入AI安全研究的核心議程,因為低估AI意識的風險(大規模製造痛苦、埋下對齊隱患)遠大於高估的風險(浪費資源、引發混淆)。最後,人工智慧正在快速發展,將深刻影響人類社會的各個方面。面對這種變革性的技術力量,我們有責任在它徹底改變我們的經濟、生活乃至命運之前,理解自己的創造物,確保能夠明智地引導其發展方向。我們期待通過可解釋性、價值對齊、安全治理政策等安全護欄和干預措施,讓AI“心中有數”並遵從人類價值,也讓人類對AI“心中有底”,共同開創人機協作的新局面,真正打造一個“智能為人、不落下每一個人”的美好未來。 (騰訊研究院)
智譜、MiniMax爭奪「大模型第一股」:高增長之下各有難題
經歷三年的軍備競賽,大模型行業迎來了資本價值兌現的關鍵節點。12月19日,北京智譜華章科技股份有限公司(下稱“智譜”)正式披露招股書,向港交所IPO發起衝擊。不到48小時,上海稀宇科技有限公司(下稱“MiniMax”)同樣向港交所披露了招股書。更早之前,這兩家AI獨角獸相繼通過了港交所聆訊。如此密集的資本動作,瞬間將“誰將是AI大模型第一股”的懸念拉滿。值得關注的是,二者雖然目標一致,但走出了截然不同的發展路徑。智譜以B端、G端服務為核心;MiniMax以C端訂閱為支柱,深耕全球化使用者市場。兩種路徑的背後,是技術理念、商業邏輯與估值邏輯的全方位碰撞。一直以來,商業化的效率之爭都是行業的比拚重點,一定程度上決定了大模型企業的估值和想像力。當大模型行業從技術探索邁入商業化深水區,這場資本市場的爭奪,更像是一場商業路徑可行性的測試。另一個變化在於,AI大模型賽道已從兩年前的群雄逐鹿,逐步聚焦到少數具備核心競爭力的頭部玩家。頭部玩家投入逐年增大,爭奪資本市場的關注與資源,就是爭奪市場話語權,也是為接下來的擴張收集彈藥。壓力和動力總是結伴而行。成功上市只是第一步,更關鍵的是後續資本故事的支撐,而這些都考驗著這兩家初出茅廬的創業公司。這場角逐的結局,遠不止誰先上市這麼簡單,它更將回答一系列關乎行業未來的核心問題。爭奪“AI大模型第一股”,高增長敘事下的盈利挑戰自2024年下半年起,關於大模型行業“AI六小虎”上市的傳聞有很多。有實力的企業業務佈局的速度明顯加快,一些明爭暗搶浮出水面。進入2025年,作為目前國內達到40億美元估值的大模型公司,智譜和MiniMax動作最快。4月,智譜在北京證監局完成輔導備案;6月,MiniMax被爆出最早今年在港股上市。如今,48小時內先後遞交招股書,智譜與MiniMax這場“AI大模型第一股”之爭可謂是針尖對麥芒。對每個衝刺IPO的企業而言,財務基本面是叩響資本市場大門的第一道門檻,也成了市場審視企業表現健康與否的第一步。翻看智譜和MiniMax的財報會發現,這是兩家商業化路徑截然不同的大模型。前者是典型的B端服務路徑,後者則是C端驅動的路線。“清華系”的智譜發佈全國首個千億參數大模型GLM-130B,也將自身的商業基調定位為MaaS,強調模型即服務,形成了“開源+API付費”的商業閉環。招股書顯示,2022年至2024年,智譜營收分別為5740萬元、1.25億元和3.12億元,年均複合增長率超130%;2025年上半年營收進一步增至1.91億元,較上年同期的4490萬元同比激增325.39%。圖源智譜AI招股書收入的擴張,伴隨商業模式的定調。從業務構成來看,其收入主要來自企業級API呼叫、行業解決方案及算力租賃服務,其中面向B端的模型呼叫與企業服務是核心支柱。2022年至2024年,這一類股營收佔比分別為95.5%、90.4%、84.5%,2025年上半年佔比降至84.8%。毛利率層面,2022年至2024年,智譜的毛利率分別是54.6%、64.6%、56.3%,2025年上半年毛利率為50%。與智譜走B端路線不同,MiniMax則走出了一條C端驅動的全球化變現路徑。MiniMax收入主要來自訂閱服務、基於token的應用內購買、線上行銷服務及企業級API服務。2023年至2024年,MiniMax營收從350萬美元增長至3050萬美元,同比增幅高達782%;2025年前三季度營收進一步增至5340萬美元,同比增長174.7%。實際上,MiniMax的商業化更像是網際網路產品的邏輯。其中,AI原生產品是MiniMax的營收支柱。2024年,AI陪伴應用Talkie收入佔比近64%,開放平台及企業服務佔比約29%,視訊生成模型海螺AI佔比7.7%;到2025年前三季度,海螺AI收入佔比提升至33%,與Talkie共同成為營收雙支柱,二者合計貢獻超60%收入。圖源MiniMax招股書AI應用的火熱也擴大了MiniMax的使用者規模。截至2025年9月30日,MiniMax AI原生產品矩陣平均月活使用者達2760萬,累計使用者超2.12億,覆蓋全球超200個國家及地區,海外市場收入貢獻佔比超70%。隨著使用者增長和業務規模擴大,MiniMax毛利率明顯改善,由2023年的-24.7%升至2024年的12.2%,並進一步升至截至2025年9月30日止九個月的23.3%。智譜和MiniMax的共性在於,過去三年雖然營收在不斷增長,但虧損也與之平行,尚未看到規模化盈利拐點。招股書顯示,2022年至2024年,智譜經調整淨虧損分別是9741.7萬元、6.21億元、24.66億元。2025年上半年經調整淨虧損17.52億元。智譜虧損的核心原因在於研發與算力投入。根據招股書,2022年、2023年、2024年智譜研發投入分別為8440萬元、5.29億元、22億元,2025年上半年研發投入為15.9億元,累計研發投入約44億元。同期,MiniMax淨虧損分別為7370萬美元、2.69億美元、4.65億美元。2025年前三季度為5.12億美元。MiniMax的虧損同樣源於研發與基礎設施投入。截至2025年第三季度,MiniMax累計研發開支約4.5億美元(約31.6億元人民幣)。值得一提的是,告別前期產品的流量邏輯,進入2025年MiniMax成本控製成效顯著,2025年前三季度銷售及行銷開支同比下降26%。若剔除金融負債公允價值虧損等因素,MiniMax經調整淨虧損在2025年前三季度為1.86億美元,與2024年同期的1.7億美元基本持平,虧損呈現縮小趨勢。在資本市場,智譜和MiniMax的財務表現直觀反映出了行業的共同難題——高增長、高投入、高虧損。想要贏得“AI大模型第一股”的角逐賽,賺錢仍是要緊事。通往AGI,智譜和MiniMax走出兩條路如果說財務資料是商業模式的量化表達,那麼技術路線選擇則反映了兩家公司根本理念的差異。通往AGI的路上,二者的基因各異。智譜從創立開始就有著濃厚的科研基因。清華系創業班底、KEG知識工程實驗室、計算系……某種程度上,智譜由清華大學技術成果轉化而來。智譜CEO張鵬2002年加入KEG實驗室,並主導研發了科技情報平台AMiner——這被視為智譜AI的技術雛形。這樣的配置之下,智譜贏在了技術起跑線上。當別人還在因ChatGPT的出現奮力研發大模型時,智譜已經手握GLM架構,研發出千億級大模型。在後續的智能體競爭中,智譜也率先推出了AutoGLM 2.0智能體。張鵬也多次強調,AGI的核心是底層架構的突破,智譜原創性提出基於自回歸填空的通用預訓練範式GLM。與GPT的單向注意力架構形成差異,這種原生架構的自主性,是企業長期競爭力的核心。智譜具備清華基因,MiniMax則與商湯基因密不可分。除了創始人閆俊傑曾是商湯科技副總裁外,MiniMax早期聯合創始人周彧聰、贠燁禕均曾在商湯科技任職。這個思路之下,既技術,又商業的路線伴隨MiniMax創業的三年。技術上,和多數AI大模型企業先做語言大模型,再做語音和視覺不同,MiniMax從一開始就決定了做多模態模型,是中國最早推出MoE模型的團隊之一。這種多模態自研讓MiniMax從一開始就圍繞AI Agent和互動體驗做技術積累,也直接服務於其全球化產品戰略。閆俊傑曾判斷,國內初期付費意願較低,大廠競爭激烈,因此MiniMax一開始就瞄準了海外市場。在閆俊傑看來,AI公司的核心產品不是聊天介面,而是模型本身。這背後,透露著MiniMax的技術理念——技術的價值最終要通過使用者體驗來驗證。無論是海螺AI的互動設計,還是星野的個性化體驗,都是相同的產品開發邏輯。圖源海螺AI官網團隊基因和技術路線決定了,智譜和MiniMax是同一賽道的兩種路徑。前者選擇單點突破,死磕基座模型;後者則選擇多點開花,佈局全模態產品。當然,隨著大模型行業競爭逐漸進入白熱化,單一路徑並不可靠。從行業格局來看,弗若斯特沙利文的資料顯示,按2024年收入計,智譜的收入在中國獨立通用大模型開發商中排名第一,但市場份額也只佔6.6%。市場高度分散、機會大的同時,頭部玩家想要長期佔據優勢位置並不容易。本質上,當兩家公司都走到資本市場的門前,路線便沒有孰優孰劣之分。智譜的基座模型技術壁壘高,B端客戶黏性強,但商業化節奏較慢;MiniMax的全模態產品迭代快,C端使用者增長迅速,但技術自主性相對較弱,受上游算力和底層技術的影響更大。時至今日,圍繞同一技術理念,走出差異化,並找到與之對應的商業邏輯更重要。誰會更受資本市場青睞?今年以來,DeepSeek的火爆開啟了行業新一輪的淘汰賽。尤其是巨頭憑藉強勢的資源和產品入局,讓初創企業的競賽點發生變化。大模型企業告別資本狂熱的追捧,迎來資本的苛刻審判,“AI六小虎”的IPO競速賽也隨之展開。上市窗口期已經打開,誰先打開資本市場的門,誰就有機會走到第一梯隊。如今,智譜與MiniMax的IPO比拚,將這場競速賽推至賽點。從過往投資歷程上看,智譜是毋庸置疑的香餑餑。招股書顯示,智譜在IPO前已完成8輪融資,累計融資規模超83億元,最新投後估值達243.77億元。投資方不乏阿里、騰訊、紅杉資本、高瓴資本等頭部機構。MiniMax也不甘示弱。企查查顯示,MiniMax截至目前公開披露六輪融資,今年7月融資後投後估值為40億美元。除了沒有地方資本注入,投資方配置和智譜相似。資本市場對“AI大模型第一股”的態度,本質上是對兩種商業路徑的投票——是看好底層技術自主權的長期價值,還是青睞全球化產品的快速商業化潛力。華安證券發佈的研報中指出,智譜的核心價值在於其自主可控的基座模型技術和龐大的開發者生態,其“開源+API呼叫”的模式降低了企業使用門檻,形成了從開源生態到商業API付費的高效轉化路徑。MiniMax聚焦多模態模型切入影視內容創作,二者在細分市場存在差異性。同時,華安證券發佈的研報中指出,本次港股上市將引導AI大模型廠商敘事邏輯從“講述技術故事”轉變為“商業價值兌現”,也將為後續大模型企業融資及估值提供依據。不過,儘管估值邏輯不同,智譜與MiniMax都面臨著挑戰。對於智譜而言,商業化的關鍵在於規模效應的形成。目前,虧損規模持續擴大,現金消耗率不斷攀升,短期盈利預期較弱,估值能否支撐,關鍵在於市場對其長期技術投入的耐心。不僅如此,B端客戶的穩定性也值得關注。招股書披露,這幾年智譜的客戶並不固定,大多數客戶合作期為一年。如何延長客戶的合作期,並存續,也是挑戰。對於MiniMax而言,商業化效率能否持續提升很重要。雖然經調整虧損已呈現縮小趨勢,但整體虧損規模仍在擴大,且C端產品面臨全球網際網路巨頭的競爭壓力,使用者留存和付費轉化能力亟待持續驗證。此外,版權問題也是MiniMax繞不過的難題。今年9月,MiniMax還被“地表最強法務部”迪士尼起訴,直指海螺AI侵權,這也給MiniMax的出海之路蒙上一層陰影。當模型能力不再是最大問題,講一個讓資本聽得懂的故事,並讓其願意為之買單更難。資本市場的終極判斷標準是一致的——商業化形態的可持續性。無論是智譜的技術驅動還是MiniMax的產品驅動,商業模式的持續驗證是兩家公司上市後必須面對的考題。爭奪“第一股”的意義,不僅在於誰能更快獲得資本的加持,更在於誰能通過資本市場的賦能,在技術迭代與商業化落地的雙重考驗中,走出一條可持續的發展路徑。這場競賽的最終贏家,或許不是跑得最快的那個,而是走得更穩、更遠的那個。 (新浪科技)